Published on

与AI共舞

Authors

2022年底,chatGPT横空出世,对chatGPT认知出现了三段式的过程:

“awesome!划时代的突破,这不比siri人工智障强?”

“嘁,这就一大号搜索引擎”

“Claude太强了,可能会威胁到部分工作”

AI写代码

22年底我就注册了chatGPT,当时chatGPT写代码大概只有70%的概率,可以完全不改动的情况下直接运行,大部分都有很多问题。现在是24年8月,使用Claude 3.5后,真的觉得AI替代程序员写代码已经不是什么不可能的事情了,基本上0出错,好像还没遇到过出现错误的情况。

我让它教我学习rust,效果非常好,告诉他我熟悉的编程语言(go),数学水平,循序渐进的教我rust相关概念与知识,还会与go的概念进行类比。

写代码这部分肯定是没问题的,前提是得配置好编程环境。说实话,写代码的水平,我可能不如AI,但是环境配置,特别在兔子这种有长城保护的地方,存在大量的坑,AI是没办法搞定的,而踩过这些坑的程序员解决起来并没什么大问题。

记得有一次新闻联播在报道AI,画面里的程序员一直pip install 超时,哈哈。

这种情况可能会更频繁的出现,借用网络流行的“祛魅”说法,AI好像给编程祛魅了,让它不再神秘,好像任何人都能来写上几段代码,取代程序员的工作。然而仔细琢磨下就知道不可能,编程是对现实世界的抽象,而编程是精确的,显示器上的每一个像素都需要精确的知道ARGB的值。

自然语言的逻辑是,“帮我写一个转账软件,像支付宝一样”,但失败怎么处理,怎么保证对方一定能收到钱?这些东西如果不停用自然语言添加限定词,约束,那干嘛不直接用编程语言来描述呢?这不是本末倒置了?编程语言本来就是为了让人类能精确的操作计算机。通过自然语言描述一个东西的时候,会有信息损失,这属于有损压缩。

倘若AI写了一段很复杂的代码,很难理解,但它确实满足了功能。这像不像一个黑盒子,输入,输出,这时候需要对它做充分的黑盒测试,压力测试,破坏性测试。假如这是一段自动驾驶代码,公司敢让这种车上路吗?出事故了谁的责任?

AIGC困境

AIGC产出的内容越来越多,可是作为内容的消费者,人,接收能力早就溢出了。网上充斥着大量AI图文,已经有点反感了,它产生出来的东西没有感情,很多图片一眼AI,高光磨皮实在是审美疲劳。

AI界有句名言,garbage in garbage out, chatGPT刚问世表现那么惊艳,很大程度上是因为英文语料的高质量。stable diffusion的anime等模型,从一个盗版网站上学习了大量高质量画师的作品,才得到不错的效果,以后大家都懂了,好东西肯定不会愿意放到网上供AI学习,抢自己的饭碗。

大量自媒体还在利用AI产生大量的垃圾数据,可以说自chatGPT诞生后,网上产生的垃圾数据应该是指数级别的增长,以后AI向从网上学到什么好知识恐怕越来越难了。

openAI好像是雇佣非洲的廉价劳动力来帮他们做的数据标注。

结论

只要AI不能DEBUG,不能自己搭建运行环境,不能自己改造自己,基本不可能取代稍微有点技术含量的岗位。

目前LLM训练成本居高不下,最低门槛要1万张A100。资本投资的逻辑是要赚钱的,现在连风口的openai都赚不到钱,泡沫太大了,加上皮衣哥高位套现自家股票,有点ALPHAGO那会的意思了,那时nvdia也涨得非常猛。 底层驱动逻辑,下一轮AI热潮,买底层芯片股,稳赚不赔。现在更像资本的游戏,需要一个“叙事”快速推高股价,套现离场。

LLM很可能并不是正确的方向,也没有数据表面,训练数据量继续加大,效果会线性增长。一切都是赌,transformer,bert都是谷歌先做出来的,反而被openai搞出了chatGPT,下次就不一定有这么好的运气了。

AI的确是很好的帮手,它可以不厌其烦的回答你的问题,而且它知识面非常广,像会说话的百科全书,用来了解不同领域的知识很好用。

但不能过于依赖AI,AI的回答是碎片化的,摄入太多碎片化的东西,没办法形成自己的“知识神经元”。